1.58bit不输FP16!微软推出全新模型蒸馏框架,作者全是华人 1.58bit不输FP16!微软推出全新模型蒸馏框架,作者全是华人 关键词: 模型蒸馏,模型训练,BitNet Distillation,BitDistill 1.58bit量化,内存仅需1/10,但表现不输FP16? 微软最新推出的蒸馏框架BitNet Distillation(简称BitDistill),实现了几乎无性能损失的模型量化。 来自主题: AI技术研报 5271 点击 2025-10-20 14:35